ARES¶
Reporte de resultados¶
Este es un reporte con los resultados de los experimentos realizados por ARES. Donde se han recopilado 57600 datos, de dos clases de software de control, para cuatro tipos de misiones.
ARES fue testeado en:
- Arenas (5): Triangular, Cuadrada, Hexagonal, Octagonal, Dodecagonal
- Tamaños de las arenas (3): Pequeña, Mediana, Grande
- Clase software de control por misión (2): Clase A y Clase B
- Modos de operación (2): Sin Fallos (1), con Fallos (3) 10%, 20% y 30% del total del enjambre con fallos
- Tamaño del enjambre de robots: 2,5,10,20,30,40,50,60,70,80,90,100
- Duración de las misiones 240 segundos
Contenido¶
En este reporte encontraras resultados sobre el rendimiento de las misiones y la evaluación de las propiedades del enjambre de robots.
- Resultados rendimiento de la misión (Performance).
- Resultados propiedades (Escalabilidad, Flexibilidad, Robustez).
Los resultados del rendimiento de cada misión corresponden a una gráfica de tipo "Box-plot", mientras que para la visualización de los resultados de las propiedades usamos "Heat map", esto con el fin de ver el efecto que tiene el cambio de parámetros como la arena, su tamaño y la densidad del enjambre durante el desarrollo de la misión.
Misiones¶
ARES muestrea cuatro tipos de misiones que van acorde al software de control que se quiere evaluar: Exploración, Agregación, marcha en formación y toma de decisiones colectivas.
Exploración:¶
Los robots deben explorar y cubrir el mayor espacio posible. El suelo es completamente gris. Al principio del experimento, los N robots se colocan aleatoriamente en el espacio de trabajo. Con el fin de medir el rendimiento del enjambre, la arena se dividido en una cuadrÃcula de N baldosas por N baldosas, dependiendo del tamaño de la arena. Para cada baldosa, conservamos el tiempo t transcurrido desde la última vez que fue visitada por un robot. Cada vez que la baldosa es visitada por un robot, este tiempo se pone a 0. El rendimiento del enjambre se mide por la suma sobre todos los ciclos de control del opuesto del tiempo medio t sobre todas las baldosas.
la función objetivo medida durante el desarrollo de la misión es:
$\begin{align} F_{exploración}=\sum_{i=1}^{Ncc}(\frac{1}{N_{tiles}}\sum_{j=1}^{N_{Tiles}}-t_{ij}) \end{align} $
Donde $N_{cc}$ es el número de ciclos de control para todo el experimento, $N_{Tiles}$ es el número de baldosas y $t_{ij}$ es el tiempo, en el ciclo de control $i$, desde que la baldosa $j$ fue fue atravesada por un robot.
Agregación:¶
Los robots deben agregarse lo más rápido posible en un punto negro ubicado en el espacio de trabajo. El suelo es completamente gris excepto por un área circular negra de 3 m de diámetro ubicada de forma aleatoria en la arena de simulación. El rendimiento del enjambre se mide por la suma del total de robots que se encuentran en la zona de agregación al final de la misión.
La función objetivo para obtener el performance de la misión es la siguiente:
$ \begin{align} F_{agregación}=\sum_{i=1}^{N}T_{i} \end{align} $
Donde $N$ es el numero de robots y $T_{i}$ es el tiempo de agregación que permanece el robot $i$ en la zona negra, durante la duración de la misión.
Marcha en formación:¶
En esta misión, el enjambre de robots debe cubrir uniformemente una región objetivo en la arena. La región objetivo es un área cualquiera en la arena de simulación o la misma arena en si. Al comienzo de cada experimento, los robots se colocan aleatoriamente.
El mejor rendimiento se logra cuando se minimiza la siguiente función objetivo:
$ \begin{align} F_{1}(T) = E[d(t)]^{2} \end{align} $ donde $f_{1}(T)$ es el cuadrado de la distancia esperada $E[d(T )]$, medida sólo una vez al final del experimento. $E[d(T)]$ es la distancia esperada, en el tiempo $T$, entre un punto genérico dentro de la región objetivo y su robot más cercano dentro de la región objetivo (Arena de simulación). Se estima $E[d(T )]$ calculando la distancia promedio entre cualquier punto dentro de la región objetivo (en la práctica, un conjunto suficientemente grande de puntos muestreados aleatoriamente) y su robot más cercano P dentro de la región objetivo. Más precisamente, $E[d(T)] ≈ \sum_{p=1}^{P} min_{i}(d_{ip})/P$ ; dónde $p ∈ [1, 1000]$ es un punto en un conjunto de puntos muestreados aleatoria y uniformemente dentro de la región objetivo; y $i ∈ [N_{robots}]$ es un robot en el conjunto de robots que están dentro de la región objetivo en el tiempo $T$. La distancia $d_{ip}$ es, por lo tanto, la distancia entre un punto aleatorio $p$ y un robot $i$ que están ambos dentro de la región objetivo.
Toma de decisiones colectiva:¶
En esta misión, el enjambre de robots debe interactuar con otros robots para llegar a un consenso para brillar en un solo color entre rojo, verde y azul. El mejor rendimiento de logra cuando un porcentaje mayor o igual al 80% del enjambre llega a un consenso. La función objetivo para obtener el rendimiento de la misión es la siguiente:
$\begin{align} F_{Consenso}(T) = \frac{\sum_{i=1}^{N}Robot_{C}}{N}(T) \end{align}$
Donde $N$ es la cantidad total de robots que están llevando a cabo la misión, $Robot_{C}$ son la cantidad de robots que están emitiendo un color donde $C ∈ [Rojo, Verde, Azul]$, y $T$ el tiempo de simulación en el que se llega al consenso.
A continuación veeremos los resultados de los experimentos, recuerda que el set completo de datos se encuentra en la carpeta "Experimentos" y el set completo de plots se encuentra en la carpeta "Plots-Experimentos" dentro del repositorio del proyecto https://github.com/gmadro04/ARES.